科学语境中的人工智能恐惧,在不同的人工智能发展阶段或不同类型的人工智能环境下,其表现和特点也有所不同(如图1)。根据技术进阶和人工智能的不同类型,把科学语境中的技术恐惧划分为三种表现形式,即技术恐惧层面的人工智能恐惧、现实意义上的人工智能恐惧和未来意义上的人工智能恐惧。[10]首先,技术恐惧层面的人工智能恐惧主要针对的是弱人工智能阶段。弱人工智能也称为专用人工智能(Special Artificial Intelligence),即专门针对某个领域的应用或专门任务设计的人工智能程序,只能完成特定领域的智能任务,如下棋机器人、扫地机器人等。这种智能程序虽然在它的专业领域具有较高的智能水平,但在其他方面却表现平庸,因此,总体上看这类人工智能水平比较低。人们把这种类型的人工智能主要看作是机器,与其他技术人工物没有太大区别,反映出来的主要是人们对物的恐惧,包括:一是基于自然主义的立场和观点,反对自然的技术化、人工智能化,有人就担心人工智能代替人的脑力劳动,会造成人脑的退化和思维的停滞,尤其脑机接口会破坏人脑的自然进化,会颠覆自然人的概念。二是基于习惯势力对新事物的排斥而恐惧人工智能技术。人工智能技术的发展会打破人们已经熟悉和习惯的学习、工作和生活场景,会打乱人际关系乃至国家或地区之间的平衡状态,从而引发人们对它的焦虑和担忧。由于人工智能等新技术的推广和应用,还迫使人们去学习更多相关的技术知识、适应智能环境,也给人带来巨大的心理压力,导致人们反对和抵制人工智能等新技术。“对霍布斯和其他人来说,恐惧构成了对新事件的合理反应的一个维度。”[11](P.7)三是基于技术双刃剑的认知和安全考量,恐惧人工智能的安全性和不确定性。由于人工智能技术复杂性,其存在的各种安全风险也令人不寒而栗。其次,现实意义上的人工智能恐惧主要发生在强人工智能阶段。强人工智能也被称为通用人工智能(Artificial General Intelligence),这种人工智能不仅不再局限于特定领域的智能任务,而且能完成一切人能够完成的智能任务——能够像人一样思考、学习和解决问题,智能水平非常高。当前通用人工智能已初见端倪,呼之欲出,但从技术发展阶段上看依然处于弱人工智能阶段,创造出像人一样会思考的强人工智能依然困难重重。之所以把现实意义上的人工智能恐惧对应于强人工智能,是因为在人们看来强人工智能才更像智能体,对它的恐惧才是真正意义上对机器智能的恐惧。同时,强人工智能(通用人工智能)又不像超级智能一样遥不可及,而是有了逻辑与技术上的可能性。当然,由于实质性的强人工智能还没有出现,现实意义上的人工智能恐惧对象,主要是现有较高水平的人工智能产品并带有一定的前瞻性。其主要表现是担心人工智能的技术替代作用以及人工智能引发的伦理问题。技术性失业引发的焦虑和恐慌已经成为当前人工智能恐惧的最主要形式。2013年牛津大学的研究人员估计,在20年内,美国47%的岗位将会受到计算机自动化的影响[12]。中国综合社会调查2015年的调查数据发现,一半以上的公众有不同程度的失业恐惧[13]。“未来10年估计有50%的人类工作将会受到人工智能的影响,其中翻译、保安、客服、会计、司机等几种职业将有90%的概率被人工智能所取代。”[14]人工智能导致的失业不仅会对较为机械和程式化的蓝领工人带来冲击,对于具有中等职业技能的技术人员甚至白领也会带来重大影响。随着人工智能水平的不断提高和推广应用,人工智能引发的伦理问题也使人感到疑惧。尤其随着通用人工智能机器人的问世,人工智能的伦理主体地位问题开始被人关注和讨论,这将引起传统伦理秩序和伦理规范的变革,而使人感到不适与恐惧;人工智能对隐私权的侵犯、人工智能医疗的安全性和公平性问题、算法的滥用和歧视问题、人工智能被坏人掌控或失控问题等,都引发了人们对人工智能伦理风险的恐惧。现实意义上的人工智能恐惧更多地表现为精神恐惧:机器越来越像人一样有了智能,其风险也表现在它的智能性上;通用人工智能机器人的伦理地位问题也不同于一般的人与物的关系问题,而更像是谈论人与人的关系问题,而伦理风险还会涉及对人性、人的本质的困惑;恐惧产生的矛盾也不再局限于物的矛盾,如失业恐惧不单是恐惧失去了生活来源(因为人工智能会创造更多的价值,通过社会保障的形式会分配到失业者手中),更重要的是失去了劳动和工作对于生活的意义、对于人生的意义而感到焦虑不安。最后,未来意义上的人工智能恐惧,主要针对的是超强人工智能技术或超级智能发展阶段。由于超级智能离我们还比较遥远,因此,对于这一未来走向能否实现,在理论研讨中还颇具争议,有人认为能够出现比人类智能更高级的超级智能,它是不同于人类智能和通用人工智能的一种新智能形式。这种超级智能未来将统治人类,甚至反噬人类。也有人认为,超级智能在一个相当长的时期内很难实现,甚至不可能实现。但不论超级智能会不会实现,这似乎并不影响人们对它的恐惧,也就是未来意义超级人工智能恐惧的存在却是一个事实。按照现在人们的设想,超级人工智能是具有自主意识和主体意识的机器智能,这种机器智能会超越人的设计与制造,摆脱人的控制,甚至与人类争夺地球的领导权和主人地位,这是人们最担心和最不愿意看到的结果。因此,超级智能恐惧实际是人们对另一种主体的恐惧,也是对自己主体地位丧失的恐惧。这也是从人类萌生人工智能概念以来一直最担心害怕的事情,玛丽·雪莱的《弗兰肯斯坦》、阿西莫夫的机器人三原则、斯蒂格勒的人工愚蠢、库兹韦尔的奇点理论等,无不显示出人们对未来人类毁灭或失去主体地位的担忧。尽管这种形态的人工智能恐惧有点杞人忧天的味道,但不断突破人的认知限度和挑战各种极限的科学技术发展史证明,这一天或许会到来的。但总的来看,未来意义上的人工智能恐惧是一种预期的想象出来的恐惧。虽然所恐惧的对象具有非现实性,但恐惧本身却是现实的。这一恐惧源于对人类整体力量缺乏信心,与对现实风险感知产生的恐惧不同:这种恐惧常常表现为群体恐惧,而不是个体恐惧;又常常与文化视域的人工智能恐惧交织在一起,构成一种科学文化现象。由此也可以看出,科学语境的人工智能恐惧与文化语境的人工智能恐惧并不是截然分开或根本对立的两类人工智能恐惧,也不是对人工智能恐惧划分的种类,而是同一事物不同的表现形式,不同的认识视角。三、走出人工智能恐惧人工智能恐惧为人工智能的发展敲响了警钟,有助于人工智能向善发展。但人工智能恐惧会引发人们对人工智能的敌视、排斥甚至破坏,严重者还会影响社会的稳定。因此,如何应对人工智能恐惧现象就成为人工智能发展过程中需要解决的重要理论和现实问题。根据人工智能恐惧存在的双重语境,主要通过文化和科学相结合的发展路径走出人工智能恐惧的困境。(一)人工智能恐惧的文化应对现代技术恐惧是一个错综复杂的问题,是由社会历史文化、技术和个体多种因素综合作用的结果,因此,技术问题的治理不能仅在技术层面上寻找答案,“调整技术体系的下一步就在于把它和我们已经开始发展的新文化以及地域新模式、社会新模式、个人新模式协调统一起来。如果认为,所有由技术造成的问题都应当在技术领域的范围之内寻找答案,那么这种想法就大错特错了。”[15](P.383)人工智能恐惧源于人们对人工智能的风险认知不够,而人工智能的风险认知是风俗习惯、社会观念、文化观念、主体个性特征等多种要素综合作用下做出的判断,其解决也有赖于各种因素的有力配合,而社会文化既是各种要素的综合反映,也是人工智能恐惧的存在视域,所以,从文化视角探讨解决人工智能恐惧问题的方法就显得尤为必要。人工智能恐惧有很深的西方古代和现代文化背景,古代主要是犹太教、基督教等超越人类肉体及其它物质条件限制追求永恒思想、世界末日论思想,以及柏拉图灵魂不朽思想的影响;现代则是浪漫主义思潮对科技的批判、玛丽·雪莱《弗兰肯斯坦》的隐喻等,使人们对人工智能的态度产生了重大影响。因此,要走出人工智能恐惧,就要走出西方的科学怪人情结,开创非柏拉图的思维方式;充分发掘中国传统文化中的自然主义文化和有机论思想,倡导有机技术、人机和谐的人工智能发展理念。东方的自然主义文化追求自然的生活状态,反对一味地追求效率的技术,反对过度科学技术化。自然主义文化视技术性为人性的自然延伸,要求人们不能脱离开人性追求技术化。这一文化主张自然是技术发展的物质和材料基础,技术的设计理念和原理、技术程序和规则都是对事物自然属性和自然机制的运用,因此,技术的目的不应该是控制外部环境和主宰自然,而是洞察人性、表达心灵、协调人与自然的关系,帮助人们适应环境,彰显生活的意义和价值。“没有对人性的深刻洞察,我们就不能理解技术在人类发展中所扮演的角色。”[16]有机论思想强调人与自然万物是一个有机体,各种事物之间相互作用、协同进化发展。有机论思想是一种生态思想,是整体论思想,重视整体价值,重视各种事物的存在价值,强调事物之间的配合,而不是人类中心主义的主宰和统治。从有机论和自然主义的文化视角看,人工智能无论是作为一种人工物,还是作为一种智能体,都应该符合有机论和自然主义的要求,都是自然界万物有机联系链条上的一个环节,并服务于人与自然界的有机联系和协调发展。无论是从技术一端还是人的一端,应该超越竞争叙事,人工智能的发展应以人的需要尤其以人类和平发展需要为价值目标,以人性化为发展诉求,而不是沉迷于控制、制约甚至危害他人,更不要一心追求超越人类,让超人主义文化永远停留在科幻中;人应视技术为自己发展的有机补充而不是敌人,更不能为了追求纯粹的自然而反对技术,而应该与技术和解、和好,创造和谐的人机发展环境。从文化路径走出人工智能恐惧还应当创造和传播科学文化,应当抛弃永生论和世界末日论的文化宣传,科学认识生物的进化和自然界的演化规律。新陈代谢是自然界的普遍规律,妄图借助人工智能实现长生不老,或者把人工智能的发展与末日论文化联系起来的想法都是错误的。打造和传播科学文化,还要做到弘扬科学精神,坚持求真务实、诚信友善价值观,建构现代科技伦理规范。科学共同体的使命是以知识造福人类,技术的本质是让人类自由地做自己。(二)走出人工智能恐惧的科学路径首先,把负责任的创新作为人工智能发展的总原则和总要求。负责任的创新是近年来欧洲提出的一种创新发展理念,并逐渐得到世界各国的认同,发展负责任的人工智能已成为全球共识,这也反映出世界各国对人工智能发展的担心。2017年《蒙特利尔宣言》指出要发展负责任的人工智能;2019年6月,中国在《新一代人工智能治理原则——发展负责任的人工智能》中,明确提出了人工智能“负责任”的治理原则。负责任的人工智能就是将责任伦理贯彻到人工智能发展的各个阶段,目的是提高人工智能的安全性,降低甚至消除人工智能的各种风险;或者即使发生风险也能够及时、准确地确定风险责任,并进行追责和补救风险伤害。人工智能虽然能够做出产生道德后果的行为和决策,但人工智能并不具有道德思考能力,也不知道自己做了什么,所以,人工智能存在的各种问题说到底还是人的问题,无论是算法设计、芯片研发,还是数据学习、具体应用,其各种安全和伦理风险都与设计者、研发者、使用者有着密切的关系,人工智能产生的各种后果也应该由这些相关人员对其负责。负责任创新的目的就是从技术源头和制度规范上消除人工智能的恶意,促其向善,避免在人工智能风险责任上的集体无意识。如果人们知道产品是安全的,或者带有一定的风险,但对自己的风险危害有责任保险,就会大大降低恐惧心理,从而消解人工智能恐惧现象。其次,把伦理道德嵌入算法,构建道德智能体作为人工智能发展的具体路径。负责任创新的总原则和总要求为人工智能的抑恶向善创造了主观条件,但要实现人工智能的良性发展或消解其各种风险还需要一定的客观条件,那就是人工智能产品本身如何对自己负责任,成为可信赖的产品,使人工智能成为道德体。把道德规范嵌入到人工智能的算法设计中去,是使人工智能成为道德体或可信赖产品的重要途径。人工智能伦理是人工智能治理的重要切入点,也是当前学界研究的热点和前沿问题,欧美中日等国家都出台了人工智能伦理规范,谷歌、微软、苹果等企业也都制定了自己人工智能研发的伦理原则。人工智能伦理规范的制定较为容易,但要把其嵌入到算法,使人工智能成为有道德、可信赖的产品比较困难。人工智能黑箱的存在使得人们难以琢磨其行为机制,正如当前我们对人类智能还有诸多不能言说之处一样。因此,道德规范的嵌入依然任重道远,道德智能体也存在诸多争议。《孟子·公孙丑》云:“是非之心,智之端也。”伦理道德与智能本就相与为一,离开伦理道德的智能是危险的,不管难度多大,人工智能的发展必然包含道德算法的应用,道德算法与其他智能功能算法同等重要,甚至需要优先考虑,这不仅是应对人工智能恐惧的有效策略,也是人工智能发展的必经之道。最后,把以人为本作为人工智能发展的价值目标。启蒙运动唤起的科学技术理性导致了长期以来人与技术关系的异化,无视人性而追求效率,人服从于机器、服从于生产流水线。这一现象也会渗透到人工智能的发展过程中去,成为人工智能恐惧的原因和表现之一。因此,应对人工智能恐惧要还需要坚持以人为本的价值理念。以人为本,就是要围绕人的需要,围绕人性,围绕服务于人发展人工智能,这是人类发展人工智能的初心,也是人工智能发展的归宿。欧盟委员会、斯坦福大学、麻省理工学院的人工智能伦理都认为应以人类为中心。以人类为中心是就人与技术的关系而言的,即任何时候技术都是为人服务的。以人为本,还要求人工智能的发展要服务于人类可持续发展的大局,即服务于人类健康环境的需要,服务于人对物种多样性的需要,服务于人的发展需要。以人为本,就要使人工智能的发展立足当下,放眼未来。要把研发重点放在现实意义上的人工智能方面,研究如何在现阶段使人工智能更好地为人类服务,而不是把精力放在研发如何超越人类智能,实现超级智能上,这只能徒增人类的紧张感和恐惧感。人工智能恐惧应对的文化路径与科学路径在人与人工智能的关系上会走向统一,文化传统和社会环境是人与人工智能关系的基础和价值导向,它不仅是人工智能伦理规范建构的基础,也会沉淀为一种价值观被嵌入到人工智能产品中去。人工智能产品的安全可靠性、其蕴含的价值品格、设计理念等,不仅会直接影响人与人工智能的关系,影响人工智能技术的接受度,而且会塑造新的文化和社会环境。因此,良好的社会文化氛围需要安全可靠的人工智能产品来支撑,可信赖的道德智能体又需要相应的文化与社会环境来推动,二者有机结合是走出双重语境人工智能恐惧的合理路径。参考文献:[1]Coeckelbergh,Mark.AI ethics[M].Cambridge,Massachusetts :The MIT Press,2020.[2]Good I.J.Speculations Concerning the First Ultraintelligent Machine[J].Advances in Computers,1965(6).[3]杜严勇.人工智能安全问题及其解决进路[J].哲学动态,2016(9).[4]江晓原.人工智能:威胁人类文明的科技之火[J].探索与争鸣,2017(10).[5]段伟文.控制的危机与人工智能的未来情境[J].探索与争鸣,2017(10).[6]赵磊.技术恐惧的哲学研究[M].北京:科学出版社,2020.[7]Bostrom,Nick.Superintelligence:Paths,Dangers,Strategies[M].Oxford:Oxford University Press,2014.[8]袁光锋、赵 扬.“恐惧文化”的社会建构及其政治社会后果[J].南京大学学报,2020(3).[9][英]弗兰克·菲雷迪.恐惧:推动全球运转的隐藏力量[M].北京:北京联合出版公司,2019.[10]赵磊.探索人工智能恐惧现象[N].中国社会科学报,2021-01-05.[11]Frank Furedi.Culture of Fear Revisited- Risk-taking and the Morality of Low Expectation[M].London:Continuum,Fourth Edition,2006.[12]Frey,Carl Benedikt,Michael A.Osborne.The future of employment:How susceptible are jobs to computerisation?[J].Technological Forecasting and Social Change,2017(114).[13]李佩.人工智能时代的技术发展与就业挑战:基于失业风险恐惧的探索[J].智库理论与实践,2019(6).[14]何 勤、朱晓妹.人工智能焦虑的成因、机理与对策[J].现代传播,2021(2).[15]刘易斯·芒福德.技术与文明[M].陈允明、王克仁、李华山译,北京:中国建筑工业出版社,2009.[16]Lewis Mumford.Technics and the Nature of Man[J].From Knowledge Among Men,Paul H.Oehser,Simon Schuster(ed.),1966.责任编辑:尹邦志